We propose a novel task, G4C (Goal-driven Guidance Generation in Grounded Communication), for studying goal-driven and grounded natural language interactions. Specifically, we choose Dungeons and Dragons (D&D) -- a role-playing game consisting of multiple player characters and a Dungeon Master (DM) who collaborate to achieve a set of goals that are beneficial to the players -- as a testbed for this task. Here, each of the player characters is a student, with their own personas and abilities, and the DM is the teacher, an arbitrator of the rules of the world and responsible for assisting and guiding the students towards a global goal. We propose a theory-of-mind-inspired methodology for training such a DM with reinforcement learning (RL), where a DM: (1) learns to predict how the players will react to its utterances using a dataset of D&D dialogue transcripts; and (2) uses this prediction as a reward function providing feedback on how effective these utterances are at guiding the players towards a goal. Human and automated evaluations show that a DM trained with RL to generate guidance by incorporating a theory-of-mind of the players significantly improves the players' ability to achieve goals grounded in their shared world.
translated by 谷歌翻译
在寻求信息的对话中,用户与代理商进行对话,以提出一系列通常可以不足或过度指定的问题。理想的代理商首先将通过搜索其基本知识来源,然后与用户进行适当互动以解决它,从而确定他们处于这种情况。但是,大多数现有研究都无法或人为地纳入此类代理端计划。在这项工作中,我们介绍了Inscit(发音为Insight),这是一种用于与混合互动相互作用的信息寻求对话的数据集。它包含从805个人类对话中进行的4.7k用户代理转弯,代理商对Wikipedia进行搜索,并要求澄清或提供相关信息以解决用户查询。我们定义了两个子任务,即证据通过识别和响应产生,以及一种新的人类评估协议来评估模型绩效。我们根据对话知识识别和开放域问题的最新模型报告了两个强大的基线的结果。这两种模型都显着不足,并且没有产生连贯和信息丰富的反应,这表明未来的研究有足够的改进空间。
translated by 谷歌翻译
我们专注于创建强化学习代理的任务,这是固有的解释 - 能够通过大声思考,在执行任务并分析后HOC后产生因果解释的整个轨迹来产生直接的当地解释。这种分层解释的加强学习代理(Hex-RL),以互动虚构,基于文本的游戏环境运营,其中代理人使用文本自然语言对世界感知和行为。这些游戏通常被构造为具有长期依赖的谜题或任务,其中代理商必须完成一系列行动,以便在其中提供理想的环境,以测试代理商解释其行为的能力。我们的代理旨在使用基于提取的符号知识图形的状态表示来处理作为一流的公民的可解释性,其与分层图注意机制耦合,该方法指向大多数影响行动选择的内部图形表示中的事实。实验表明,该代理提供了对强强基线的显着改进的解释,这是人类参与者通常不熟悉环境的评分,同时也匹配最先进的任务表现。
translated by 谷歌翻译
针对边缘设备的实用眼睛认证(EA)系统需要对呈现攻击进行身份验证并强大,同时剩余计算和延迟效率。然而,现有的基于眼框架A)独立地执行认证和呈现攻击检测(PAD),B)涉及提取虹膜区域的显着预处理步骤。在这里,我们使用围绕图像介绍EA和垫的联合框架。虽然深度多任务学习(MTL)网络可以执行任务,但由于EA和焊盘的训练数据集是不相交的,因此MTL遭受遗忘效果。为了克服这一点,我们提出了用垫(眼部)的眼睛认证,一种基于蒸馏的方法,该方法为EA和垫训练了一个网络,同时降低了遗忘的效果。为了进一步提高EA性能,我们介绍了一种名为Eyepad ++的新方法,包括在EA和焊盘数据上训练MTL网络,同时通过额外的蒸馏步骤蒸馏眼网网络的“通用性”。我们所提出的方法优于垫中的SOTA,并在眼睛验证中获得近的SOTA性能,而无需任何预处理。我们还展示了眼部和眼部++在用户到用户验证中的疗效,跨网络骨干网和图像质量。
translated by 谷歌翻译
面部识别网络通常展示相对于性别,Skintone等的敏感属性,适用于性别和Skintone,我们观察到网络的面积,网络参加属性的类别。这可能有助于偏见。在这种直觉上建立一种新的基于蒸馏的方法,称为蒸馏和去偏置(D&D),以实施网络以寻求类似的面部区域,而不管属性类别如何。在D&D中,我们从一个属性中培训一类图像的教师网络;例如轻的Skintone。然后从教师蒸馏信息,我们在剩余类别的图像上培训学生网络;例如,黑暗的skintone。特征级蒸馏损失约束学生网络以生成类似教师的表示。这允许学生网络参加所有属性类别的类似面部区域,并使其能够减少偏差。我们还提出了D&D的顶部的第二蒸馏步骤,称为D&D ++。对于D&D ++网络,我们将D&D网络的“未偏见”蒸馏成新的学生网络,D&D ++网络。我们在所有属性类别上培训新网络;例如,光明和黑暗的碳酸根。这有助于我们培训对属性偏差的网络,同时获得比D&D更高的面部验证性能。我们展示D&D ++优于在IJB-C数据集上减少性别和Skintone偏置的现有基线,同时获得比现有的对抗偏置方法更高的面部验证性能。我们评估我们所提出的方法对两个最先进的面部识别网络的有效性:Crystalface和Arcface。
translated by 谷歌翻译
最近关于神经象征性归纳逻辑编程的工作导致了有希望的方法,可以从嘈杂,现实世界数据中学习解释规则。虽然一些提议近似逻辑运算符,具有不同的逻辑,从模糊或实际值逻辑,无参数,从而无参数,从而减少它们适合数据的容量,其他方法仅基于逻辑摆动,使得难以解释学习的“规则”。在本文中,我们提出了与最近提出的逻辑神经网络(LNN)的学习规则。与其他人相比,LNN与经典布尔逻辑的强大连接,从而允许精确地解释学习规则,同时覆盆可以用基于梯度的优化训练的参数来有效地拟合数据。我们将LNN扩展以在一阶逻辑中引导规则。我们对标准基准测试任务的实验证实,LNN规则是高度可解释的,并且由于其灵活的参数化而可以实现可比或更高的准确性。
translated by 谷歌翻译
我们考虑通过网络攻击者生成对抗性恶意软件的问题,其中攻击者的任务是在现有二进制恶意软件文件中战略性地修改某些字节,以便修改的文件能够避免恶意软件检测器,例如基于机器学习的恶意软件分类器。我们使用从单个公开可用的恶意软件数据集绘制的二进制恶意软件样本进行了评估了三个最近的对抗恶意软件生成技术,并将其进行了比较了它们的性能,以逃避称为MALCONV的基于机器学习的恶意软件分类器。我们的结果表明,在比较技术中,最有效的技术是战略性地修改二进制标题中字节的技术。我们通过讨论对对抗对抗恶意软件生成主题的经验教训和未来的研究方向来结束。
translated by 谷歌翻译